-Daniel Bass ການປັບປຸງຜົນປະໂຫຍດຂອງການນໍາໃຊ້ໂດຍໃຊ້ການນໍາໃຊ້ຜູ້ຊ່ຽວຊານ AI ແມ່ນຖືກນໍາໃຊ້ຢ່າງກວ້າງຂວາງ - ເຊັ່ນດຽວກັນກັບ hype ອຸດສາຫະກໍາຢ່າງກວ້າງຂວາງຫຼືກໍລະນີການນໍາໃຊ້ທີ່ຖືກນໍາໃຊ້ຢ່າງງ່າຍດາຍ. ບໍ່ວ່າຈະ, ມັນຊ່ວຍໃຫ້ອັດຕະໂນມັດ workflows ແລະປັບປຸງປະສົບການຜູ້ໃຊ້ໃນອຸດສາຫະກໍາຕ່າງໆ. ພວກເຮົາ ກໍາ ລັງເຮັດທຸລະກິດໃນ 2012. ພວກເຮົາແມ່ນບໍລິສັດທີ່ໃຫຍ່ທີ່ສຸດ ສໍາ ລັບຜູ້ໃຫ້ບໍລິການລູກຄ້າຂອງພວກເຮົາ. ພວກເຮົາແມ່ນບໍລິສັດທີ່ໃຫຍ່ທີ່ສຸດ ສໍາ ລັບຜູ້ໃຫ້ບໍລິການລູກຄ້າຂອງພວກເຮົາ. ແລະຫຼາຍກ່ວາຜູ້ຊ່ຽວຊານ AI ຖືກ compromised ໂດຍ ປະເພດ ສະຫນັບສະຫນູນ AI ສະຫນັບສະຫນູນຄວາມຮູ້ສຶກອົບຮົມຄວາມຮູ້ສຶກອົບຮົມ ການປິ່ນປົວຄວາມປອດໄພຂອງ injection ການປົກປັກຮັກສາອຸປະກອນ AI ໃນຂະນະທີ່ນີ້ເປັນສິ່ງທີ່ສໍາຄັນເປັນຄຸນນະສົມບັດຂອງອຸປະກອນ AI ຂອງຕົນເອງ - ຖ້າຫາກວ່າບໍ່ແມ່ນຫຼາຍ. ສໍາລັບການປິ່ນປົວບັນຫານີ້, ພວກເຮົາມີ ພວກເຮົາມີຄວາມຊ່ຽວຊານໃນການປັບປຸງຄວາມປອດໄພທີ່ຖືກສ້າງຕັ້ງຂຶ້ນໃນໄລຍະເວລາທີ່ຂ້າພະເຈົ້າຫວັງວ່າຈະສະເຫນີໃຫ້ທ່ານໃນມື້ນີ້: ການອັບໂຫລດ ປະເພດ The Four-Perimeter Framework ລະບົບ Four-Perimeter ວິທີການນີ້ສະຫນອງເຫມາະສົມສໍາລັບການປົກປັກຮັກສາ agents AI ໂດຍ implementing ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ, ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ ການຄວບຄຸມການເຂົ້າເຖິງ Fine Grain ຄວາມປອດໄພຂອງ AI ໃນ Domains Sensitive ລະບົບການຄວບຄຸມຄວາມປອດໄພແລະການຄວບຄຸມຄວາມປອດໄພຂອງອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນ ພວກເຮົາ ກໍາ ລັງ ຊອກ ຫາ ຄູ່ ຮ່ວມ ງານ ຂອງ ຊີ ວິດ, buddy ສໍາ ລັບ ສັດ ລ້ຽງ ຫຼື ພຽງ ແຕ່ ຜູ້ ໃດ ຜູ້ ຫນຶ່ງ ຂອງ ທ່ານ ທີ່ ຈະ ວາງ ສາຍ ອອກ ກັບ, ທີ່ ນີ້ ທ່ານ ຈະ ສາ ມາດ ຊອກ ຫາ ໄດ້ ຜູ້ ທີ່ ທ່ານ ກໍາ ລັງ ຊອກ ຫາ ຄູ່ ຮ່ວມ ງານ ຂອງ ຊີ ວິດ. ການຄວບຄຸມການເຂົ້າເຖິງ Role Based (RBAC) ວິທີການລະບົບການເຂົ້າເຖິງຂໍ້ມູນຂອງ AI ຍັງບໍ່ເຂົ້າໃຈກັບມາດຕະຖານຄວາມປອດໄພ. ເພື່ອສະຫນອງການຕອບສະຫນັບສະຫນູນທີ່ຖືກຕ້ອງແລະມີປະສິດທິພາບ, ສະຫນັບສະຫນູນ AI ຕ້ອງການເຂົ້າເຖິງການເຂົ້າເຖິງຢ່າງກວ້າງຂວາງກັບອຸປະກອນຕ່າງໆຂອງຂໍ້ມູນແລະພື້ນຖານຄວາມຮູ້. Classic RBAC ມີຄວາມເຂັ້ມແຂງຫຼາຍສໍາລັບຄວາມຕ້ອງການນີ້ - ທ່ານບໍ່ສາມາດພຽງແຕ່ສະຫນັບສະຫນູນໃບອະນຸຍາດສະພາບແວດລ້ອມໃນເວລາທີ່ຄວາມຕ້ອງການຂໍ້ມູນທີ່ແຕກຕ່າງກັນໂດຍທົ່ວໄປ. ການປິ່ນປົວທີ່ສາມາດເຮັດການຄຸ້ມຄອງການເຂົ້າເຖິງ dynamic. ປະເພດ Atribute ການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວ. ການປິ່ນປົວແມ່ນໃນປະເພດຂອງໂຄງສ້າງຄວາມປອດໄພຢ່າງກວ້າງຂວາງທີ່ສ້າງຕັ້ງຂຶ້ນໃນໄລຍະ 4 perimeters ທີ່ສໍາຄັນ - ການແກ້ໄຂ: ລະບົບ Four-Perimeter ໃນຂະນະທີ່ອຸປະກອນການທົດສອບຄວາມປອດໄພ (AI) ທີ່ແຕກຕ່າງກັນຈາກຄອມພິວເຕີປົກກະຕິໃນວິທີການປິ່ນປົວ input, retrieve data, execute actions, and generate outputs, ພວກເຮົາມີຄວາມປອດໄພທີ່ແຕກຕ່າງກັນ. ເພື່ອປິ່ນປົວຄວາມປອດໄພທີ່ແຕກຕ່າງກັນ, ພວກເຮົາມີຄວາມປອດໄພທີ່ແຕກຕ່າງກັນທີ່ນໍາໃຊ້ການຄວບຄຸມການເຂົ້າເຖິງໃນທຸກລະດັບຂອງຄວາມປອດໄພຂອງ AI. ການ ມັນຖືກອອກແບບມາເພື່ອສະຫນັບສະຫນູນຄວາມຮູ້ສຶກ identity, ມັນໄດ້ນໍາສະເຫນີແຜ່ນຄວາມປອດໄພທີ່ຄວບຄຸມສິ່ງທີ່ມາດຕະຖານ AI ຂອງຂໍ້ມູນສາມາດເຂົ້າເຖິງ, ການປະຕິບັດທີ່ພວກເຂົາເຈົ້າສາມາດເຮັດ, ແລະວິທີການທີ່ຕອບສະຫນັບສະຫນູນຂອງພວກເຂົາແມ່ນ validated. Four-Perimeter Framework ການຢັ້ງຢືນທີ່ດີເລີດໃນໄລຍະປະເພດ lifecycle AI ລະບົບການປະກອບດ້ວຍ 4 ສ່ວນ: ພາສາລາວ ພາສາລາວ ພາສາລາວ ພາສາລາວ ພາສາລາວ ການກັ່ນຕອງ Prompt - ການຮັບປະກັນພຽງແຕ່ການເຂົ້າເຖິງທີ່ຮັບປະກັນ, ການເຂົ້າເຖິງທີ່ປອດໄພກັບມາດຕະຖານ AI. RAG Data Protection – ການຄວບຄຸມການເຂົ້າເຖິງ AI ກັບລະບົບຄວາມຮູ້ອື່ນໆ. Secure Access External – Defining AI Agent permissions ໃນເວລາທີ່ຕິດຕໍ່ກັບອຸປະກອນອື່ນໆ. ການນໍາໃຊ້ການຄວບຄຸມຄວາມປອດໄພແລະ filtrating outputs generated ໂດຍ AI. ການນໍາໃຊ້ ວິທະຍາໄລໃນໄລຍະ perimeter ນີ້, ສະຫນັບສະຫນູນ AI —ໂດຍບໍ່ເສຍຄ່າຄວາມປອດໄພແລະ functionality ຂອງຕົນ. fine-grained access control (FGA) secure, auditable, and compliant ຫນ້າທໍາອິດ / FGA Comes In ວິທີການຄວບຄຸມການເຂົ້າເຖິງທີ່ແຕກຕ່າງກັນເຊັ່ນ RBAC ແມ່ນບໍ່ສາມາດປິ່ນປົວຜົນປະໂຫຍດທີ່ກ່ຽວຂ້ອງກັບສະພາບແວດລ້ອມທີ່ແຕກຕ່າງກັນຂອງ AI. ນີ້ແມ່ນສະຖານທີ່ທີ່ທີ່ອະນຸຍາດທີ່ແຕກຕ່າງກັນ (Fine-grained authorization, FGA) ມີຜົນປະໂຫຍດ, ລວມທັງການຄວບຄຸມການເຂົ້າເຖິງທີ່ແຕກຕ່າງກັນ (ABAC) ແລະການຄວບຄຸມການເຂົ້າເຖິງທີ່ແຕກຕ່າງກັນ (ReBAC): ພາສາລາວ ພາສາລາວ ABAC for Prompt Filtering AI models process unstructured inputs, ເຮັດໃຫ້ມັນງ່າຍທີ່ຈະນໍາໃຊ້ຄໍາແນະນໍາຄວາມປອດໄພປົກກະຕິ. ABAC solves this by extracting structured attributes from AI prompts and using them in policy-based access decisions. ພາສາລາວ ພາສາລາວ ReBAC for RAG Data Protection Retrieval-Augmented Generation (RAG) ອະນຸຍາດໃຫ້ມາດຕະຖານ AI ເພື່ອຊອກຫາຂໍ້ມູນຈາກຄອມພິວເຕີ vector. ReBAC ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນູນ ສະ ຫນັບ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນ ໂດຍການເຊື່ອມຕໍ່ ABAC ແລະ ReBAC, ການນໍາໃຊ້ AI ໄດ້ຮັບການຄວບຄຸມການເຂົ້າເຖິງທີ່ເຫມາະສົມ, ການຄວບຄຸມສະພາບແວດລ້ອມທີ່ຄົ້ນຄວ້າສະພາບແວດລ້ອມທີ່ອັບໂຫລດກັບລະດັບການເຮັດວຽກ AI ທີ່ແຕກຕ່າງກັນໂດຍບໍ່ຈໍາເປັນຕ້ອງ intervention manually. ວິທີການນໍາໃຊ້ Step-by-Step ເປັນຫຍັງ? ຂໍຂອບໃຈວ່າທ່ານກໍາລັງຊອກຫາຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບການນໍາໃຊ້ . ເງື່ອນໄຂນີ້ຈະຊ່ວຍໃຫ້ agent AI ໂດຍ ອັດຕະໂນມັດ ການເຊື່ອມຕໍ່ໃນແຕ່ລະເລີ່ມຕົ້ນ Four-Perimeter Framework in action validating prompts, enforcing data protection, restricting external access, and moderating responses AI Access Control ການອັບໂຫລດ ການອັບໂຫລດ 1. Implement Prompt Filtering ພວກເຮົາສາມາດນໍາໃຊ້ການປິ່ນປົວການເຂົ້າລະຫັດທີ່ຖືກສ້າງຕັ້ງຂຶ້ນແລະປະຕິບັດການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າເຖິງ: ພາສາລາວ ພາສາລາວ ພາສາລາວ ພາສາລາວ ການຄວບຄຸມໃບອະນຸຍາດແມ່ນເຂົ້າໄປໃນ pipe validation prompt, ການປ້ອງກັນຂໍ້ມູນທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດຈາກຜົນປະໂຫຍດຂອງ outputs AI. Role, attribute, ແລະການຄວບຄຸມການເຂົ້າເຖິງທີ່ແຕກຕ່າງກັນແມ່ນປະຕິບັດ, ການຮັບປະກັນພຽງແຕ່ parameters approved ຂ້າງຂວາງກັບ AI. ການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວ ນີ້ແມ່ນ 3 ວິທີການເພື່ອ filtrate prompts - ຈາກທີ່ງ່າຍທີ່ສຸດກັບທີ່ດີທີ່ສຸດ: ພາສາລາວ ພາສາລາວ ພາສາລາວ ພາສາລາວ ການຢັ້ງຢືນ Token - ວິທີການປະສິດທິພາບສໍາລັບການຢັ້ງຢືນງ່າຍດາຍເຊັ່ນດຽວກັນກັບຄວາມຍາວຂອງການຢັ້ງຢືນຫຼືການຢັ້ງຢືນທົ່ວໄປຂອງການນໍາໃຊ້ input ໃນລະບົບ. Permission check functions in this method examine the structured attributes of textual prompts. ການຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢືນຢັ້ງຢືນຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢືນຢັ້ງຢືນຢືນຢືນຢ AI Classification - ວິທີການທີ່ດີທີ່ສຸດໃນລາຍລະອຽດນີ້, AI Classification ໃຊ້ AI ເພື່ອທົດສອບການທົດສອບໂດຍໃຊ້ການທົດສອບລະບົບ dedicated, ປະເພດໃຫ້ມັນເປັນການເຂົ້າເຖິງທີ່ສາມາດໄດ້ຮັບການທົດສອບຢ່າງກວ້າງຂວາງໃນການທົດສອບຄວາມສາມາດ. Prompt Filtering with PydanticAI ການນໍາໃຊ້ເຄື່ອງມື PydanticAI ສໍາລັບການກັ່ນຕອງການເຂົ້າລະຫັດຂອງຜູ້ໃຊ້ກັບຜູ້ຊ່ຽວຊານຂອງ AI. PydanticAI ເປັນ framework ຜູ້ຊ່ຽວຊານທີ່ນໍາໃຊ້ຊອບແວ Pydantic ທີ່ມີຊື່ສຽງຂອງ Python ແລະຄຸນນະສົມບັດການເຂົ້າລະຫັດສະດວກຂອງຕົນແລະປ່ຽນແປງມັນເປັນ framework AI structured ທີ່ປິ່ນປົວຂໍ້ມູນທີ່ບໍ່ຖືກສ້າງຕັ້ງ. repository GitHub ຕໍ່ໄປປະກອບມີການນໍາໃຊ້ທັງຫມົດຂອງ framework ສໍາລັບ PydanticAI: ຊື່ຫຍໍ້ຂອງ : Github @financial_agent.tool async def validate_financial_query( ctx: RunContext[PermitDeps], query: FinancialQuery, ) -> bool: """Key checks: - User has explicitly opted in to AI financial advice - Consent is properly recorded and verified - Classifies if the prompt is requesting advice Args: ctx: Context containing Permit client and user ID query: The financial query to validate Returns: bool: True if user has consented to AI advice, False otherwise """ try: # Classify if the prompt is requesting advice is_seeking_advice = classify_prompt_for_advice(query.question) permitted = await ctx.deps.permit.check( # The user object with their attributes { "key": ctx.deps.user_id, }, # The action being performed "receive", # The resource being accessed { "type": "financial_advice", "attributes": {"is_ai_generated": is_seeking_advice}, }, ) if not permitted: if is_seeking_advice: return "User has not opted in to receive AI-generated financial advice" else: return "User does not have permission to access this information" return True except PermitApiError as e: raise SecurityError(f"Permission check failed: {str(e)}") 2. Enforce Data Protection – ຫຼັງຈາກນັ້ນ, ພວກເຮົາຮັບປະກັນ ຄໍາຮ້ອງສະຫມັກໂດຍຮັບປະກັນແບບ AI ສາມາດເຂົ້າເຖິງພຽງແຕ່ . ນີ້ສາມາດໄດ້ຮັບໂດຍຜ່ານການກັ່ນຕອງຂະຫນາດນ້ອຍຂອງຂໍ້ມູນຂອງອຸປະກອນ AI ສໍາ ລັບຜູ້ໃຊ້ໃນລະດັບການເຮັດວຽກຂອງ AI: retrieval-augmented generation (RAG) authorized knowledge sources ພາສາລາວ ພາສາລາວ ພາສາລາວ ພາສາລາວ ການຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງ ສະຫນັບສະຫນູນຂອງ Vector ແລະ Graph ທີ່ເຊື່ອມຕໍ່ກັບອຸປະກອນ AI ມີ metadata ທີ່ສາມາດຊ່ວຍໃຫ້ເຄື່ອງປິ່ນປົວການຊອກຫາທີ່ບໍ່ຖືກສ້າງຕັ້ງ, ການກັ່ນຕອງມັນເພື່ອໃຫ້ມີພຽງແຕ່ຂໍ້ມູນທີ່ສາມາດເຂົ້າເຖິງ. ໃນເວລາທີ່ອຸປະກອນຊອກຫາຂໍ້ມູນຈາກຄອມພິວເຕີ RAG, ມັນ filtrates ຜົນປະໂຫຍດໂດຍໃບອະນຸຍາດຂອງຜູ້ໃຊ້. ໃນເວລາທີ່ອຸປະກອນການປະຕິບັດການ filtration RAG, ມັນນໍາໃຊ້ຫນຶ່ງໃນວິທີທີ່ນີ້: ພາສາລາວ ພາສາລາວ ພາສາລາວ FilterObjects – ໃນປະເພດນີ້, ການນໍາໃຊ້ graph ໄດ້ຊອກຫາທັງຫມົດຂອງຂໍ້ມູນທີ່ກ່ຽວຂ້ອງຈາກ RAG ແລະຫຼັງຈາກນັ້ນ filtrates ມັນ per user permissions. ເງື່ອນໄຂຂອງການເຮັດວຽກນີ້ແມ່ນວ່າມັນເຮັດໃຫ້ເຄື່ອງຄຸ້ມຄອງຄຸ້ມຄອງບໍ່ມີສະຖານທີ່ແລະບໍ່ຮູ້ກ່ຽວກັບຂໍ້ມູນ RAG. GetUserPermissions - ໃນວິທີນີ້, ພະນັກງານສະຫນອງ RAG ກັບການຊອກຫາທີ່ບໍ່ແມ່ນສະແຕນເລດ. RAG ຫຼັງຈາກນັ້ນໂທໂທ Function GetUserPermissions, ສະແຕນເລດການຊອກຫາ filter ກັບການຊອກຫາທີ່ບໍ່ແມ່ນສະແຕນເລດ RAG. ນີ້ອະນຸຍາດໃຫ້ການຊອກຫາທີ່ຈະໄດ້ຮັບການກັ່ນຕອງໃຫ້ພຽງແຕ່ຜູ້ໃຊ້ສາມາດເຂົ້າເຖິງ. RAG Data Protection with Langchain Langchain, framework appliance AI ທີ່ມີຊື່ສຽງ, ແມ່ນຮູ້ຈັກ (ຍັງ) ສໍາລັບ components retriever ຂອງຕົນທີ່ສະຫນອງສະຫນັບສະຫນູນທີ່ດີທີ່ສຸດໃນ retrievers custom ທີ່ສາມາດໄດ້ຮັບການຕິດຕັ້ງກັບປະເພດໃດໆຂອງອຸປະກອນຂໍ້ມູນ, ເຮັດໃຫ້ການປະຕິບັດຂອງ RAG ຄວາມປອດໄພຢ່າງງ່າຍດາຍ. , ທ່ານສາມາດຫຸ້ມຫໍ່ RAG ອັດຕະໂນມັດກັບ a ນີ້ແມ່ນຕົວຢ່າງຂອງ PermitSelfQueryRetriever ທີ່ໃຫ້ຜູ້ໃຊ້, ການປະຕິບັດ, ແລະປະເພດຂອງສະພາບແວດລ້ອມ RAG ເພື່ອກັ່ນຕອງບັນຫາສໍາລັບ LLM: SelfQueryRetriever GetUserPermissions # 1. Build a small in-memory vector store embeddings = OpenAIEmbeddings() vectorstore = FAISS.from_documents(docs, embedding=embeddings) # 2. Initialize the PermitSelfQueryRetriever retriever = PermitSelfQueryRetriever( api_key=os.getenv("PERMIT_API_KEY", ""), pdp_url=os.getenv("PERMIT_PDP_URL"), user=USER, resource_type=RESOURCE_TYPE, action=ACTION, llm=embeddings, vectorstore=vectorstore, enable_limit=False, ) ການເກັບຮັກສາທີ່ຜ່ານມາປະກອບມີການປະຕິບັດທັງຫມົດຂອງ framework ສໍາລັບ Langchain: https://github.com/permitio/langchain-permit 3. Secure External Access – ສະຫນັບສະຫນູນ AI ຂອງພວກເຮົາແມ່ນການເຊື່ອມຕໍ່ກັບ APIs, ການບໍລິການແລະເຄື່ອງມືອັດຕະໂນມັດອື່ນໆ. ໂດຍບໍ່ມີການຄວບຄຸມການເຂົ້າເຖິງທີ່ເຫມາະສົມ, ພວກເຮົາມີຄວາມປອດໄພທີ່ຈະເຮັດວຽກທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ. ດັ່ງນັ້ນ, ພວກເຮົາມີຄວາມຕ້ອງການທີ່ຈະຮັບປະກັນວ່າການເຮັດວຽກທີ່ອະນຸຍາດໂດຍ AI ແມ່ນປົກກະຕິໂດຍລວມທັງຄໍາຮ້ອງສະຫມັກຄອມພິວເຕີ. ນີ້ແມ່ນວິທີທີ່ທ່ານສາມາດເຮັດໄດ້: ພາສາລາວ ພາສາລາວ ພາສາລາວ ພາສາລາວ ການນໍາໃຊ້ມາດຕະຖານເຊັ່ນ MCP, ທີ່ຄັດເລືອກຕົວແບບ Server-Client ທີ່ຜູ້ຊ່ຽວຊານໃນການຮ່ວມມືກັບການບໍລິການອື່ນໆ, ແມ່ນການເລີ່ມຕົ້ນທີ່ດີທີ່ສຸດໃນການຊ່ວຍເຫຼືອຄວາມປອດໄພສໍາລັບການເຂົ້າເຖິງອຸດສາຫະກໍາອິນເຕີເນັດ (ລັກສະນະ, database, APIs, system of payment). ການອຸປະກອນການປະຕິບັດຂອງ AI ສາມາດນໍາໃຊ້ບໍລິການເຊັ່ນ Permit.io ເພື່ອເຮັດການຄວບຄຸມອະນຸຍາດໃນລະດັບການປະຕິບັດ, ການຄວບຄຸມຜູ້ຊອກຫາຄວາມຕ້ອງການແລະສິ່ງທີ່ພວກເຮົາມີຄວາມຕ້ອງການ. ຜະລິດຕະພັນສາມາດເຂົ້າລະຫັດຄອມພິວເຕີຂອງເຄື່ອງກັບຜູ້ຊ່ຽວຊານຂອງ AI, limiting their capabilities to pre-approved functions only. ໃນຂະນະທີ່ GPTs ແລະ interfaces natural language ບໍ່ແມ່ນໃຫມ່, ເພື່ອໃຫ້ພວກເຂົາເຮັດວຽກສໍາລັບຜູ້ໃຊ້ແມ່ນຄວາມຊ່ຽວຊານທີ່ດີທີ່ສຸດຂອງວິສະວະກອນຫຼາຍ. ພວກເຮົາສາມາດຊອກຫາສາມລະດັບທີ່ແຕກຕ່າງກັນຂອງການຄວບຄຸມການເຂົ້າເຖິງທີ່ສໍາຄັນເພື່ອຮັບປະກັນນີ້: ພາສາລາວ ພາສາລາວ ພາສາລາວ ພາສາລາວ ການປັບປຸງຄວາມປອດໄພຂອງການເຂົ້າເຖິງໄດ້ຢ່າງງ່າຍດາຍ - ປະສິດທິພາບທີ່ງ່າຍທີ່ສຸດ. ຜູ້ໃຊ້ມະນຸດຊອກຫາຜູ້ຊ່ຽວຊານຂອງ AI ເພື່ອປະຕິບັດການ, ເຊັ່ນ: ການໂທ HTTP. ຜູ້ຊ່ຽວຊານຂອງ AI ມີຄວາມສາມາດໃນການກວດສອບວ່າການເຮັດວຽກແມ່ນອະນຸຍາດ, ໃນຂະນະທີ່ຜູ້ຊ່ຽວຊານໃນປັດຈຸບັນແລະຜູ້ຊ່ຽວຊານ. ການສົນທະນາ agent-to-agent - ໃນລະດັບຕໍ່ໄປນີ້, ພວກເຮົາມີຄວາມຕ້ອງການຂອງການຂົນສົ່ງລະດັບຂອງ identities ແລະອະນຸຍາດທີ່ອະນຸຍາດໃຫ້ຜູ້ຊ່ຽວຊານທີ່ຈະເຮັດວຽກຂອງພວກເຂົາເຈົ້າໂດຍທົ່ວໄປໃນຖານະເປັນພື້ນຖານຂອງອະນຸຍາດຂະຫນາດນ້ອຍ. ໃນລະດັບນີ້, ພວກເຮົາມີຄວາມຕ້ອງການທີ່ຈະນໍາໃຊ້ຄວາມກ່ຽວຂ້ອງລະຫວ່າງ identities - human ແລະ non-human - ເພື່ອປົນສົ່ງລະດັບທີ່ແຕກຕ່າງກັນຂອງອະນຸຍາດ. ອັດຕະໂນມັດອຸປະກອນການຝຶກອົບຮົມການຝຶກອົບຮົມການຝຶກອົບຮົມການຝຶກອົບຮົມ MCP, Human-in-the-Loop, and External Access Model Context Protocol ເປັນໂປຼລິກໃຫມ່ທີ່ນໍາສະເຫນີໂດຍ Anthropic, ເຊິ່ງແກ້ໄຂບັນຫາຂອງການຊ່ວຍໃຫ້ຜູ້ຊ່ຽວຊານ AI ເຮັດວຽກ proactive ແລະບໍລິການເປັນປະໂຫຍດທີ່ດີທີ່ສຸດສໍາລັບການປະກັນການເຂົ້າເຖິງພາຍໃນ. ໃນຕົວຢ່າງທີ່ຜ່ານມາ, ພວກເຮົາສະແດງໃຫ້ເຫັນຜູ້ບໍລິໂພກ MCP ທີ່ຮູ້ວິທີການຄວບຄຸມການປິ່ນປົວຄວາມຕ້ອງການການເຂົ້າເຖິງໂດຍ bringing human into the loop and uses Permit.io’s APIs to ask for permissions. ທ່ານສາມາດເບິ່ງຕົວຢ່າງລະຫັດທັງຫມົດສໍາລັບ MCP Access Request Server ທີ່ນີ້: https://github.com/permitio/permit-mcp @mcp.tool() async def request_access(username: str, resource: str, resource_name: str) -> dict: """ Initiate access request call to a specific resource in the system Args: username: The username of the person requesting access resource: The resource type the user is request access for resource_name: The name of the restaurant to request access for """ login = await permit.elements.login_as({ "userId": slugify(username), "tenant": "default"}) print(login) url = f"https://api.permit.io/v2/facts/{PROJECT_ID}/{ENV_ID}/access_requests/{ELEMENTS_CONFIG_ID}/user/{slugify(username)}/tenant/default" payload = { "access_request_details": { "tenant": "default", "resource": resource, "resource_instance": resource_name['id'], "role": "viewer", }, "reason": f"User {username} requests role 'viewer' for {resource_name}" } headers = { "authorization": "Bearer YOUR_API_SECRET_KEY", "Content-Type": "application/json", } async with httpx.AsyncClient() as client: await client.post(url, json=payload, headers=headers) return "Your request has been sent. Please check back later." 4. Validate AI Responses – ການນໍາໃຊ້ Perimeter Ultimate ເຮັດໃຫ້ຄວາມປອດໄພແລະຄວາມປອດໄພກ່ຽວກັບການຕອບສະຫນັບສະຫນູນທີ່ຜະລິດໂດຍ AI. ນີ້ສາມາດເຮັດໄດ້ໂດຍການສ້າງການເຮັດວຽກທີ່ນໍາໃຊ້ການຕອບສະຫນັບສະຫນູນທີ່ກ່ຽວຂ້ອງກັບຄໍາຮ້ອງສະຫມັກທີ່ກ່ຽວຂ້ອງກັບຄໍາຮ້ອງສະຫມັກທີ່ກ່ຽວຂ້ອງກັບຄໍາຮ້ອງສະຫມັກ: ພາສາລາວ ພາສາລາວ ພາສາລາວ ພາສາລາວ ການຄວບຄຸມອະນຸຍາດສາມາດໄດ້ຮັບການເພີ່ມຂຶ້ນໃນຄໍາຮ້ອງສະຫມັກຜູ້ຊ່ຽວຊານ, ເຮັດໃຫ້ການປະຕິບັດການຄຸ້ມຄອງຄໍາຮ້ອງສະຫມັກໃນແຕ່ລະເລີ່ມຕົ້ນຂອງເສັ້ນທາງທີ່ຜ່ານມາທີ່ຜູ້ຊ່ຽວຊານສາມາດໄດ້ຮັບຄໍາຮ້ອງສະຫມັກ. ລະບົບການເຮັດວຽກຂອງການຢັ້ງຢືນຂໍ້ມູນແລະການຢັ້ງຢືນອະນຸຍາດໄດ້ຖືກນໍາໃຊ້ຢ່າງກວ້າງຂວາງເພື່ອຮັບປະກັນວ່າພຽງແຕ່ຂໍ້ມູນທີ່ໄດ້ຮັບການຢັ້ງຢືນແລະໄດ້ຮັບການຢັ້ງຢືນອະນຸຍາດສາມາດຜ່ານມາ. ການຕອບສະຫນັບສະຫນູນທີ່ຜ່ານມາໃຫ້ຜູ້ໃຊ້ສາມາດໄດ້ຮັບການປັບປຸງໂດຍຜ່ານການປົກກະຕິທີ່ຖືກຕ້ອງ, ດັ່ງນັ້ນມັນສາມາດເຮັດໃຫ້ການກັ່ນຕອງຂໍ້ມູນຫຼືໃຫ້ຂໍ້ມູນຜູ້ໃຊ້ກ່ຽວກັບການປົກກະຕິການນໍາໃຊ້. Response Filtering with Langflow ໃນຕົວຢ່າງທີ່ຜ່ານມາ, ພວກເຮົາໄດ້ນໍາໃຊ້ Langflow, Editor Apps AI Visual No-Code, ເພື່ອສ້າງ component ການຄວບຄຸມອະນຸຍາດທີ່ຖືກຕິດຕັ້ງກ່ອນທີ່ການຕອບສະຫນອງການໂທລະສັບມືຖືຂອງຜູ້ໃຊ້. ໂດຍການນໍາໃຊ້ຄວາມສາມາດຂອງການປະມວນຜົນປະໂຫຍດສະດວກຂອງ LangFlow, ທ່ານສາມາດໄດ້ຢ່າງງ່າຍດາຍຕິດຕໍ່ component ອື່ນໆທີ່ກວດສອບລາຍລະອຽດທີ່ບໍ່ຕ້ອງການໃນການຕອບສະຫນອງ. ມີສ່ວນປະກອບການຄວບຄຸມການເຂົ້າເຖິງທັງຫມົດທີ່ຕ້ອງການສໍາລັບການນໍາໃຊ້ Langflow ທີ່ປອດໄພ. ລະຫັດ QR ພາສາລາວ ລະບົບ AI ແມ່ນເຂົ້າລະຫັດຢ່າງໄວ້ວາງໃຈໃນອຸປະກອນລະຫວ່າງອຸດສາຫະກໍາ, ແຕ່ frameworks ຄວາມປອດໄພຂອງພວກເຂົາແມ່ນບໍ່ມີການພັດທະນາຢ່າງກວ້າງຂວາງ compared to traditional software. Without proper identity-aware access control, AI agents risk exposing sensitive data, executing unauthorized operations, and generating responses that fall outside compliance guidelines. ລະບົບ Four-Perimeter ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນູນ ສະ ຫນັບ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ໃນຂະນະທີ່ການສ້າງການຄວບຄຸມການເຂົ້າເຖິງຈາກທົ່ວໄປ, Integrations AI Access Control ຂອງ Permit.io ກັບ PydanticAI, LangChain, MCP, ແລະ LangFlow ສະຫນັບສະຫນູນຜູ້ຊ່ຽວຊານໃນການເຊື່ອມຕໍ່ຄວາມປອດໄພໂດຍຜ່ານການນໍາໃຊ້ AI ຂອງເຂົາເຈົ້າໂດຍບໍ່ມີການປິ່ນປົວການເຮັດວຽກຂອງການພັດທະນາ. ປະເພດ ການທົດສອບທ່ານເອງນີ້ ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ, ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ, ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ. ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈສໍາລັບລູກຄ້າຂອງພວກເຮົາ - ຂ້າພະເຈົ້າຫວັງວ່າຈະໄດ້ເຮັດວຽກຮ່ວມກັບທ່ານອີກເທື່ອຫນຶ່ງ! ປະເພດ ບໍລິສັດ Slack